今天要講機器學習中,一個很重要的課題:選擇損失函數。
$$
h^=\mathop{\arg\min}{h \in \mathcal{H}} \sum{i=1}^N \lambda(h, (x_i, y_i))
$$
我們現在所認為最好的 $h^$,其評量方式是根據 $\lambda$,所以若我們選擇不同的 $\lambda$ ,最終就會得到不同的結果。今天介紹幾個常見的函數。
$$
\text{MSE } = \frac{1}{N} \sum_{i=1}^N (y_i - h(x_i))^2
$$
$$
\text{CE } = - \sum_{i=1}^N \sum_{d=1}^D y_i^{(d)} \log h(x_i)^{(d)}
$$
上述兩個大宗的損失函數,另外還有許多各式各樣的,像是 Hinge Loss 等等,往往我們會針對特定問題設計一個對的函數,甚至是多個函數的結合。度量學習(Metric Learning)也是在研究這方面的理論。